Selecione o idioma

Portuguese

Down Icon

Selecione o país

Italy

Down Icon

O Comissário de Privacidade: "Cuidado com a IA como oráculo. Menores estão em risco; uma aliança entre instituições é necessária."

O Comissário de Privacidade: "Cuidado com a IA como oráculo. Menores estão em risco; uma aliança entre instituições é necessária."

Corremos cegamente em direção às promessas da inteligência artificial. Seus enormes benefícios são compensados por perigos extraordinários para nossas vidas. A privacidade e a proteção de dados — a matéria-prima dessa revolução — são um baluarte contra o poder excessivo das grandes empresas de tecnologia e, de forma mais geral, de todos aqueles que exploram a transformação digital em seu benefício. Mas isso não é tudo: Pasquale Stanzione, presidente da Autoridade Italiana de Proteção de Dados, em seu discurso para o relatório anual de 2025, em 15 de julho, onde delineou esses conceitos, pediu uma colaboração profunda em toda a sociedade, incluindo os pais, para proteger o que ele chama de "o lado humano" da revolução digital. Ou seja, nós.

2024 – que o relatório analisa, mas com um olhar para 2025 e o futuro – foi outro ano desafiador, em que a Autoridade Italiana de Proteção de Dados (em colaboração com seus homólogos europeus) perseguiu os muitos desafios decorrentes da tecnologia digital. Considere, por exemplo, o problema ainda não resolvido do telemarketing ilegal. As multas em si são apenas uma fração dos problemas enfrentados. Em 2024, a Autoridade arrecadou € 24 milhões em multas. 835 medidas colegiais foram adotadas, das quais 468 eram medidas corretivas e punitivas. A Autoridade respondeu a 4.090 reclamações e 93.877 relatórios sobre, entre outras coisas, marketing e redes telemáticas; dados online de administrações públicas; saúde; justiça, cyberbullying e pornografia de vingança , segurança cibernética; setor bancário e financeiro; e emprego.

Excesso de confiança na IA

As questões mais complexas dizem respeito à inteligência artificial, que é o tema do discurso do presidente.

"Hoje, qualquer um de nós pode usar IA para qualquer pesquisa, embora com o risco do efeito âncora — ou seja, a tendência de confiar nela sem qualquer pensamento crítico ou desejo de investigação mais aprofundada, com uma abordagem quase oracular", disse Stanzione. "Pesquisas recentes mostram que 66% dos funcionários que usam IA generativa por motivos profissionais confiam em seus resultados sem avaliar sua precisão."

Não são apenas questões de trabalho, vida pessoal e saúde que estão sendo abordadas pelo oráculo. A IA "está se infiltrando em táticas de guerra, alimentando a guerra algorítmica no domínio cognitivo, com manipulação de conteúdo, dissuasão digital e narrativas polarizadas". "Capacetes integrados com realidade aumentada e IA estão sendo desenvolvidos para aprimorar as capacidades sensoriais dos soldados". "Na Ucrânia, o sistema Delta fornece análise estratégica preditiva útil para orientar ações defensivas, enquanto em Israel, o Alerta Vermelho desenvolve modelos preditivos para antecipar os tempos de evacuação, protegendo civis".

A IA ainda não substituiu os humanos, mas "orienta suas decisões mesmo em uma arena tão dramaticamente humana como a guerra, um campo de carne e osso que nenhum algoritmo pode apagar". O Garantidor lista os inúmeros benefícios que a IA oferece, por exemplo, na área da saúde e da terapêutica. No entanto, os benefícios incomparáveis que a IA pode potencialmente oferecer podem resultar em perigos intoleráveis na ausência da conscientização necessária que exige seu uso.

Os perigos não devem ser vistos como o reverso dessas vantagens. Os dois lados são, na verdade, um só, intimamente interligados e sempre presentes juntos. Proteger direitos e indivíduos é, portanto, uma questão de orientar a inteligência artificial como um todo, garantindo que seu poder seja bem distribuído e beneficie a comunidade.

A questão surge com mais clareza quando se trata dos mais vulneráveis. "Isso é especialmente verdadeiro para menores que, como 'nativos digitais', têm uma relação quase osmótica com as novas tecnologias, com benefícios inegáveis (basta pensar na vasta riqueza de informações desbloqueada com um único clique), mas também, às vezes, riscos significativos", diz Stanzione.

Algoritmos são frequentemente usados para produzir deepfakes , geralmente em detrimento de mulheres ou minorias; aquelas que são consideradas, por natureza, representação ou circunstância, mais vulneráveis.

Além disso, os casos de pornografia infantil gerada por inteligência artificial estão aumentando, tornando o trabalho das autoridades extremamente complexo. "Em apenas dois anos, houve um aumento de 380% no uso de IA para criar pornografia infantil, às vezes com base em imagens reais fornecidas sob pressão dos próprios menores. A exposição entre adolescentes aumentou 35% para meninos e 67% para meninas no mesmo período."

“O Fiador interveio, durante o ano, em resposta a pedidos de proteção relativos à temida difusão de imagens artificiais com recurso a IA, expressando uma forma de abuso para além da sextorsão e da pornografia de vingança , que envolveu a Autoridade em 823 processos em 2024”, explica Stanzione.

Menores manipulados

Há também casos crescentes de menores ou outras pessoas vulneráveis manipuladas por chatbots, chegando a ser levadas ao extremo. "Para muitos adolescentes, os chatbots se tornaram verdadeiras figuras de referência (a Replika se autodenomina o "amigo empático")." "Alguns chegam a desenvolver uma espécie de vínculo emocional e empático com esses chatbots, também devido ao seu tom, muitas vezes excessivamente lisonjeiro, absolvente e consolador, e à sua aparência de refúgio seguro onde podem se refugiar, protegidos do julgamento alheio." "É o que se chama de ciclo da empatia infinita, que gera dependência, levando à desvalorização das relações humanas (que parecem muito complexas e insatisfatórias), levando ao isolamento. A investigação sobre o trágico desaparecimento de uma menina muito jovem está em andamento, com perguntas que ela fez ao ChatGpt sobre a "toxicidade" do amor e dos relacionamentos românticos", afirma o Fiador.

O trabalho é uma área em que os benefícios da tecnologia digital andam de mãos dadas com riscos, especialmente quando se trata de aumentar a produtividade dos trabalhadores.

Cuidado com a máfia digital

"A digitalização do trabalho exige, ademais, alguns cuidados essenciais para evitar que as garantias trabalhistas, arduamente conquistadas, para reparar a vulnerabilidade do trabalhador sejam contornadas por meros atalhos tecnológicos." "A proteção de dados desempenha um papel central na conciliação entre as necessidades do empregador e a liberdade do trabalhador, especialmente à luz das inovações trazidas pela gig economy, que não deve degenerar em uma forma de maestria digital."

"Particularmente significativa, a este respeito, é a medida adotada contra uma empresa de entrega de alimentos que organizou o trabalho por meio de uma plataforma, na ausência das salvaguardas necessárias para os trabalhadores", afirma Stanzione. Segundo a Autoridade, a proteção de dados é um baluarte dos direitos na revolução digital, "protegendo o componente mais profundamente 'humano' da inovação". "A ausência de regulamentação", acrescenta a Autoridade, "não produz igualdade, mas sim subordinação aos imperativos do mercado".

O risco de um "efeito distorcido, principalmente em termos democráticos, que a regulamentação digital europeia, apesar dos inevitáveis altos e baixos, pretende combater redesenhando o âmbito do poder privado e colocando a tecnologia a serviço do indivíduo".

“Precisamos de pedagogia digital”

Mas como isso pode ser feito? O Garante enfatiza a necessidade de ações conjuntas, envolvendo as diversas autoridades europeias relevantes (garantes, autoridades policiais, em primeiro lugar) e a sociedade civil. Veja, por exemplo, o que ele diz sobre menores: "É importante que o acesso a esses dispositivos e, de forma mais geral, à internet, não ocorra sozinho". O que ele chama de "pedagogia digital" é necessário. O que é necessário é "uma aliança comum de instituições e comunidades educacionais para promover a conscientização digital entre menores. As escolas estão fazendo muito; o Garante está ao lado delas nesse esforço para desenvolver a cidadania digital".

“Precisamos de uma cultura de proteção de dados”

A conscientização digital, no entanto, é uma necessidade para todos — especialmente para aqueles que trabalham na área da saúde, onde os dados são altamente sensíveis, observa a Autoridade. "É cada vez mais necessário que os profissionais dos setores público e privado incutam uma cultura abrangente de proteção de dados", afirma. "Todos devem estar cientes da importância de suas ações para garantir a segurança da 'fronteira digital' do país: ela faz parte daquela cultura digital sem a qual nenhuma estratégia de proteção é possível." "Essa conscientização é o pré-requisito essencial para reformas que não sejam meramente inovações técnicas, mas que estabeleçam um progresso real em termos de liberdade e garantias democráticas", conclui a Autoridade.

La Repubblica

La Repubblica

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow